Parameter details
本节介绍了所有模型中可由用户定义的参数,可以分为必要参数和高级参数两类。必要参数需要用户指定,高级参数采用了默认值,用户可以在 json 文件中根据需求手动修改。在下面的参数中,"相对路径(relative path)" 表示相对于当前工作目录的路径,而 "绝对路径(absolute path)" 表示从根目录开始的文件或目录的完整路径。
必要参数
对于任何模型,以下参数需要用户输入。
model_type
该参数用于指 定用于训练的模型类型。您可以使用LINEAR
模型、NN
模型、DP
模型或 NEP
模型。
atom_type
该参数用于设置训练体系的元素类型。用户可以按照任意顺序指定元素的原子序数。例如,对于单元素系统如铜,可以设置为 [29],而对于多元素系统如 CH4,则可以设置为 [1, 6]。您也可以使用元素类型的名称,例如["Cu"] 或者 ["H", "C"]。
max_neigh_num
最大邻居数,其默认值为100
。然而,对于某些系统来说,这个值可能不足以容纳所有的邻居,导致特征生成失败。在这种情况下,将会弹出以下警告信息:
Error! maxNeighborNum too small
在该情况下,请调大该值。
raw_files
该参数用于指定训练任务的分子动力学轨迹文件所在的路径。您可以使用相对路径或绝对路径。
- 对于 DP 和 NEP 模型,支持的文件格式有 PWmat, VASP, CP2K (对应
format
参数为pwmat/movement
,vasp/outcar
,cp2k/md
) - 对于 LINEAR 和 NN 模型,仅支持
pwmat/movement
格式
format
该与 raw_files
配合使用,参数用于指定原始轨迹文件的格式,默认值为 pwmat/movement
。 PWmat, VASP, CP2K 对应 format
参数分别为 pwmat/movement
, vasp/outcar
, cp2k/md
。
datasets_path
该参数用于 DP 和 NEP 模型,用于指定 pwmlff/npy
格式的数据所在路径。对于 DP 和 NEP 模型,如果指定了raw_files
,在训练或者测试中会把raw_files
中的轨迹自动转换为pwmlff/npy
格式。转换工具为 PWDATA
。
train_movement_file
该参数在PWMLFF-2025.5之前的版本
中,用于 LINEAR 和 NN 模型做训练,提供 movement 文件路径。当前版本(2024.5)已经修改为raw_files
,并且兼容该参数,即您可以使用train_movement_file
或者 raw_files
皆可。
test_movement_file
该参数在PWMLFF-2025.5之前的版本
中,用于 LINEAR 和 NN 模型做测试,提供 movement 文件路径。当前版本(2024.5)已经修改为raw_files
,并且兼容该参数,即您可以使用test_movement_file
或者 raw_files
皆可。
model_load_file
该参数用于指定用于测试
任务的模型所在的路径。
高级参数
用户只需要设置必要参数即可完成模型的训练、测试和相关分子动力学过程。相应的高级参数,如模型超参数和优化器超参数,将被设置为默认值。这些高级参数也可以在 json 文件中进行设置。
train_valid_ratio
该参数指定训练集与验证集的比例。例如,0.8 表示将 MOVEMENT 中前 80% 的 images 作为训练集,剩余的 20% 作为验证集。默认值为 0.8
。
recover_train
该参数用于从中断的 DP 或 NN 训练任务中恢复训练。默认值为 true
work_dir
该参数用于设置执行训练、测试和其他任务的工作目录。它可以设置为绝对路径或相对路径。默认值是相对路径./work_dir
。
reserve_work_dir
该参数用于指定在任务执行完成后是否保留工作目录 work_dir
。默认值为 False
,意味着在执行完成后该目录将被删除。
- 注意,
work_dir
,reserve_work_dir
,train_movement_file
和test_movement_file
参数仅用于 LINEAR 和 NN 模型。并且 LINEAR 和 NN 模型仅支持 movement 文件格式。train_movement_file
和test_movement_file
参数在PWMLFF-2024.5 版本
中,已经被raw_files
替换,同时也兼容该参数。
type_embedding
"model_type"="DP"
时,在model
参数中设置"type_embedding":true
表示用 type embedding 训练 DP 模型,默认值为false
。
model 参数
完整的 DP
模型包括 描述符(descriptor)
、拟合网络(fitting_net)
和 type_embedding
三个部分;NN
不包含type_embedding
; 对于 Linear
模型,则不需要指定拟合网络和优化器。对于 NEP
模型参数需要单独设置。
Linear model
Linear 模型的完整参数设置如下:
"model": {
"descriptor": {
"Rmax": 6.0,
"Rmin": 0.5,
"feature_type": [3,4]
}
}
Rmax
特征的最大截断半径。默认值为 。
Rmin
特征的最小截断半径。默认值为 。
eature_type
该参数用于特征类型,与NN 模型
中的设置相同。支持的选项有[1, 2]、[3, 4]、[5]、[6]、[7]和[8]。默认值为[3, 4],即 2-b 和 3-b 高斯特征。有关不同特征类型的更详细信息,请参考附录1。
NN model
NN 模型的完整参数设置如 下:
"model": {
"descriptor": {
"Rmax": 6.0,
"Rmin": 0.5,
"feature_type": [3,4]
},
"fitting_net": {
"network_size": [15,15,1]
}
}
Rmax
特征的最大截断半径。默认值为 。
Rmin
特征的最小截断半径。默认值为 。
feature_type
该参数用于特征类型。支持的选项有[1, 2]、[3, 4]、[5]、[6]、[7]和[8]。默认值为[3, 4],即 2-b 和 3-b 高斯特征。有关不同特征类型的更详细信息,请参考附录1。
network_size
该参数用于拟合网络(fitting_net)的结构。默认值为[15, 15, 1],其结构如下所示: 输入层(输入数据维度)➡ 隐藏层 1(15 个神经元)➡ 隐藏层 2(15 个神经元)➡ 输出层(1 个神经元)
DP model
DP 模型的完整参数设置如下:
"model": {
"type_embedding":{
"physical_property":["atomic_number", "atom_mass", "atom_radius", "molar_vol", "melting_point", "boiling_point", "electron_affin", "pauling"]
},
"descriptor": {
"Rmax": 6.0,
"Rmin": 0.5,
"M2": 16,
"network_size": [25,25,25]
},
"fitting_net": {
"network_size": [50,50,50,1]
}
}
physical_property
该参数用于指定 DP
模型在做 type embedding 方式训练时需要的参数,我们这里提供了 8 个物理属性供用户选择。
atomic_number: 原子序数 atom_mass: 原子质量 atom_radius: 原子半径 molar_vol: 摩尔体积 melting_point: 熔点 boiling_point: 沸点 electron_affin: 电子亲和能 pauling 为泡林电负性
"physical_property" 默认值为 ["atomic_number", "atom_radius", "atom_mass", "electron_affin", "pauling"]
Rmax
DP 模型中平滑函数的最大截断半径。默认值为 。
Rmin
DP 模型中平滑函数的最小截断半径。默认值为 。
M2
该参数用于 DP 模型中的网络,确定嵌入网络的输出大小和拟合网络的输入大小。在示例中,嵌入网络的输出大小为(25 X 16),拟合网络的输入大小为(25 X 16 = 400)。默认值为 16。
network_size
该参数用于嵌入网络(embedding_net)和拟合网络(fitting_net)的结构。默认值分别为[25, 25, 25]和[50, 50, 50, 1]。对应的网络结构如下所示:
嵌入网络的结构: 输入层(输入数据维度)➡ 隐藏层 1(25 个神经元)➡ 隐藏层 2(25 个神经元)➡ 输出层 3(25 个神经元)
拟合网络的结构: 输入层(M2 X 25)➡ 隐藏层 1(50 个神经元)➡ 隐藏层 2(50 个神经元)➡ 隐藏层 3(50 个神经元)➡ 输出层(1 个神经元)
NEP model
完整的 NEP 模型参数设置如下:
{
"model_type": "NEP",
"atom_type": [8,72],
"max_neigh_num": 100,
"model": {
"descriptor": {
"cutoff": [6.0,6.0],
"n_max": [4,4],
"basis_size": [12,12],
"l_max": [4,2,1],
"zbl": 2.0
},
"fitting_net": {
"network_size": [100,1]
}
}
}
model_type
该参数用于指定NEP
训练的类型。
cutoff
该参数用于设置 radial
和 angular
的截断能 ,在PWMLFF的实现中,我们只使用了 radial 的截断能,角度的截断能与 radial 一致。默认值为 [6.0, 6.0]
。
n_max
该参数用于设置 radial
和 angular
的距离和角度分别对应的 feature 数量,默认值为 [4, 4]
。
basis_size
该参数用于设置 radial
和 angular
的距离和角度分别对应的基组数量,默认值为 [12, 12]
。
l_max
该参数用于设置 angular 的展开阶,同时控制是否使用四体和五体feature,默认值为 [4, 2, 1]
,分别是三体、四体以及五体 feature 对应的阶。这里 2
表示使用四体 feature,1
表示使用五体feature。如果您只使用三体feature,请设置为[4, 0, 0]
;只是用三体和四体feature,请设置为[4, 2, 0]
。
network_size
该参数用于设置 NEP
模型中隐藏层神经元个数,在 NEP 模型中只有一层隐藏层,默认值为 [100]
。这里支持使用多层神经网络,如您可以设置为[50, 50, 50, 1]
这类网络,但是建议您使用默认值即可,更多网络层数在我们的测试中对模型拟合精度的 提升有限,反而会造成推理负担,降低推理速度。
zbl
该参数用于设置Ziegler-Biersack-Littmark (ZBL) 势,处理原子距离非常近的情况。默认不设置。该值的允许范围是 1.0 zbl 2.5。
optimizer 优化器
可用于训练 NN、DP、NEP 模型的优化器,有KF(Kalman Filter)优化器
和ADAM 优化器
。
KF optimizer
KF 优化器的完整参数设置如下:
"optimizer": {
"optimizer": "LKF",
"epochs": 30,
"batch_size": 1,
"print_freq": 10,
"block_size": 5120,
"p0_weight": 0.01,
"kalman_lambda": 0.98,
"kalman_nue": 0.9987,
"train_energy": true,
"train_force": true,
"train_ei": false,
"train_virial": false,
"train_egroup": false,
"pre_fac_force": 2.0,
"pre_fac_etot": 1.0,
"pre_fac_ei": 1.0,
"pre_fac_virial": 1.0,
"pre_fac_egroup": 0.1
}
optimizer
该参数用于指定优化器名称,可用选项有LKF
或GKF
。关于优化器的详细信息参考 LKF,其中提供了有关优化器实现和特性的更深入的细节说明。
epochs
该参数用于指定训练的轮数(epochs)。在机器学习中,一 个 epoch 指的是整个训练数据集通过神经网络的完整传递,包括前向传播和反向传播。在每个 epoch 中,训练数据集分为多个 小批量(mini-batches)
样本,之后把每个批次输入到神经网络,进行前向传播、损失计算和参数更新的反向传播过程。训练的轮数决定了整个训练数据集在训练过程中被处理的次数。默认值为 30
。
通常需要通过调试和评估训练过程来选择适当的训练轮数。如果训练轮数过小,模型可能无法充分学习数据集的模式和特征,导致欠拟合。另一方面,如果训练轮数过大,模型可能会过拟合训练数据,在新数据上的泛化性能下降。
batch_size
批大小(batch size)参数确定了在每个 epoch 的训练过程中,每个小批量(mini-batch)中包含的训练样本数量。默认值为 1
。
print_freq
该参数用于指定没经过多少个小批量
迭代之后打印一次训练误差。默认值为 10
。
block_size
该参数是LKF 优化器
的超参数,用于指定协方差矩阵 P 的块大小。较大的块大小会增加内存和 GPU 内存的消耗,导致训练速度较慢,而较小的块大小会影响收敛速度和准确性。默认值为 5120
,如果是在 A100、H100 等高端显卡上,建议设置为 10240
。
p0_weight
该参数是 LKF 和 GKF 优化器
的超参数,用于正则化参数,默认值为0.01
,即采用正则化。设置正则化项有助于减少模型的过拟合。该参数要求值小于 1
,经过测试 0.01
是较为合适的值。如果设置为 1
则表示不适用正则化。
kalman_lambda
该参数是LKF 和 GKF 优化器
的超参数,称为记忆因子(memory factor)。它决定了对先前数据的权重或关注程度。值越大,越重视先前的数据。默认值为 0.98
。
kalman_nue
该参数是LKF 和 GKF 优化器
的超参数,kalman_nue 是遗忘率(forgetting rate),描述了 kalman_lambda 变化的速率。默认值为 0.9987
。
train_energy
该参数用于指定是否训练 total energy,默认值为 true
。
train_force
该参数用于指定是否训练 force,默认值为 true
。
train_ei
该参数用于指定是否训练 atomic energy,默认值为 false
。
train_virial
该参数用于指定是否训练 virial,默认值为 false
。
train_egroup
该参数用于指定是否训练 energy group,默认值为 false
。
pre_fac_etot
该参数用于指定 total energy 对损失函数的权重或贡献。默认值为 1.0
。
pre_fac_force
该参数用于指定 force 对损失函数的权重或贡献。默认值为 2.0
。
pre_fac_ei
该参数用于指定 atomic energy 对损失函数的权重或贡献。默认值为 1.0
。
pre_fac_virial
该参数用于指定 virial 对损失函数的权重或贡献。默认值为 1.0
。
pre_fac_egroup
该参数用于指定 energy group 对损失函数的权重或贡献。默认值为 0.1
。
ADAM optimizer
ADAM 优化器的完整参数设置如下:
"optimizer": {
"optimizer": "ADAM",
"epochs": 30,
"batch_size": 1,
"print_freq": 10,
"lambda_2" : 0.1,
"learning_rate": 0.001,
"stop_lr": 3.51e-08,
"stop_step": 1000000,
"decay_step": 5000,
"train_energy": true,
"train_force": true,
"train_ei": false,
"train_virial": false,
"train_egroup": false,
"start_pre_fac_force": 1000,
"start_pre_fac_etot": 0.02,
"start_pre_fac_ei": 0.1,
"start_pre_fac_virial": 50.0,
"start_pre_fac_egroup": 0.02,
"end_pre_fac_force": 1.0,
"end_pre_fac_etot": 1.0,
"end_pre_fac_ei": 2.0,
"end_pre_fac_virial": 1.0,
"end_pre_fac_egroup": 1.0
}
optimizer
, epochs
, batch_size
, print_freq
, train_energy
, train_force
, train_ei
, train_virial
, train_egroup
. 这些参数与 KF 优化器中的参数功能相同。
lambda_2
该参数用于设置 Adam 优化器的 L2
正则化项,默认不设置。设置正则化项有助于减少模型的过拟合。
learning_rate
该参数是 Adam 优化器的初始学习率。默认值为 0.001
。
stop_lr
该参数是指停止学习率,表示当学习率降到该值时训练过程将停止。默认值为 3.51e-08
。
stop_step
该参数是指停止步数(stopping step),表示当达到该步数时训练过程将停止。默认值为 1000000
。
decay_step
该参数表示衰减步数(decay step),它指定了学习率衰减的间隔。在每个衰减步数之后,学习率会根据一定的衰减率进行更新。默认值为 5000
。
learning_rate
, stop_lr
, stop_step
, decay_step
这四个变量用于更新学习率,其计算过程如下所示,可以使用以下的 Python 代码或数学公式表示:
decay_rate = np.exp(np.log(stop_lr/learning_rate) / (stop_step/decay_step))
real_lr = learning_rate * np.power(decay_rate, (iter_num//decay_step))
首先计算衰减率(decay_rate):
更新学习率 learning rate:
其中,iter_num 代表训练过程中的迭代次数。
start_pre_fac_force
训练开始时 force 损失的 prefactor,应大于或等于 0。默认值为 1000
。
start_pre_fac_etot
训练开始时 total energy 损失的 prefactor,应大于或等于 0。默认值为 0.02
。
start_pre_fac_ei
训练开始时 atomic energy 损失的 prefactor,应大于或等于 0。默认值为 0.1
。
start_pre_fac_virial
训练开始时 virial 损失的 prefactor,应大于或等于 0。默认值为 50.0
。
start_pre_fac_egroup
训练开始时 egroup 损失的 prefactor,应大于或等于 0。默认值为 0.02
。
end_pre_fac_force
训练结束时 force 损失的 prefactor,应大于或等于 0。默认值为 1.0
。
end_pre_fac_etot
训练结束时 total energy 损失的 prefactor,应大于或等于 0。默认值为 1.0
。
end_pre_fac_ei
训练结束时 atomic energy 损失的 prefactor,应大于或等于 0。默认值为 2.0
。
end_pre_fac_virial
训练结束时 virial 损失的 prefactor,应大于或等于 0。默认值为 1.0
。
end_pre_fac_egroup
训练结束时 egroup 损失的 prefactor,应大于或等于 0。默认值为 1.0
。